# 热门搜索 #
搜索
搜索: Llama 3
240万亿巨量数据被洗出,足够训出18个GPT-4!全球23所机构联手,清洗秘籍公开

是时候把数据Scale Down了!Llama 3揭示了这个可怕的事实:数据量从2T增加到15T,就能大力出奇迹,所以要想要有GPT-3到GPT-4的提升,下一代模型至少还要150T的数据。好在,最近有团队从CommonCrawl里洗出了240T数据——现在数据已经不缺了,但你有卡吗?

来自主题: AI技术研报
7857 点击    2024-06-24 15:25
8B模型奥数成绩比肩GPT-4!上海AI Lab出品

只要1/200的参数,就能让大模型拥有和GPT-4一样的数学能力? 来自复旦和上海AI实验室的研究团队,刚刚研发出了具有超强数学能力的模型。 它以Llama 3为基础,参数量只有8B,却在奥赛级别的题目上取得了比肩GPT-4的准确率。

来自主题: AI技术研报
8588 点击    2024-06-17 23:35
最强开源大模型一夜易主

阿里云发布最强开源大模型Qwen2,干翻Llama 3,比闭源模型还强。

来自主题: AI技术研报
8059 点击    2024-06-09 11:06